Teoria informației

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare
Satelitul artificial Skylab reprezintă una dintre aplicațiile teoriei informației

Teoria informației este o disciplină a „ computerului și telecomunicațiilor al cărei obiect este analiza și prelucrarea matematicii de bază a fenomenelor legate de măsurarea și transmiterea informațiilor pe un canal de comunicare fizică

Mărimea care măsoară cantitatea de date se numește entropie și este de obicei exprimată ca numărul de biți necesari pentru stocarea sau transmiterea informațiilor. De exemplu, dacă un alfabet are o entropie egală cu 4 biți, atunci, luând un număr suficient de cuvinte construite cu acel alfabet, sunt necesari în medie 4 biți pentru a reprezenta fiecare literă.

Aplicarea conceptelor fundamentale ale teoriei informației include compresia fără pierderi (de exemplu, Zip ), codarea cu pierderi (de exemplu, Mp3 ) și modulațiile digitale utilizate în transmisiile ethernet . Teoria informației este exact la jumătatea distanței dintre matematica aplicată , statistici , fizica aplicată , telecomunicații și computer . Impactul său a fost crucial în misiunile spațiale , în invenția CD - ului , telefoanelor , internetului , studiului lingvisticii și în multe alte domenii.

Istorie

Pictogramă lupă mgx2.svg Același subiect în detaliu: Istoria teoriei informației .

Evenimentul decisiv care a adus apariția teoriei informației și a atras imediat atenția lumii a fost publicarea articolului „ O teorie matematică a comunicării ”, de Claude Shannon în Jurnalul tehnic al sistemului Bell în iulie și octombrie 1948 .

Înainte de acest articol, de asemenea, în Bell Labs , au fost dezvoltate câteva concepte teoretice despre informații și întotdeauna fusese implicit presupus ipoteza tratării evenimentelor la fel de probabile. Articolul din 1924 al lui Harry Nyquist , Anumiți factori care afectează viteza telegrafică , conține câteva secțiuni teoretice care cuantifică „inteligența” și „viteza” la care poate fi transmis pe un sistem de comunicare, oferind raportul , Unde W este viteza de transmitere a inteligenței, m este numărul diferitelor niveluri de tensiune pe care le puteți alege la fiecare pas, iar K este o constantă. Articolul din 1928 , lucrarea lui Ralph Hartley , Transmission of Information (Information Transmission), folosește cuvântul informațional pentru a indica o cantitate măsurabilă, care reflectă capacitatea receptorului de a distinge o secvență de simboluri de alta; informațiile din text sunt definite ca , Unde S este numărul de simboluri posibile, n este numărul de simboluri transmise. Unitatea naturală de informație a fost deci cifra zecimală, ulterior redenumită hartley în onoarea sa. Alan Turing a folosit în 1940 o idee similară într-o parte a analizei statistice privind descifrarea codurilor criptografice Enigma folosită de germani în al doilea război mondial .

O mare parte din matematica din spatele teoriei informației în cazul evenimentelor cu probabilități diferite a fost dezvoltată în domeniul termodinamicii de Ludwig Boltzmann și Willard Gibbs . Legăturile dintre entropia definită în teoria informației și cea definită în termodinamică, inclusiv contribuțiile importante ale lui Rolf Landauer din anii 60, sunt explorate în lucrarea Entropie în termodinamică și teoria informației .

În articolul revoluționar al lui Shannon, a introdus pentru prima dată modelele cantitative și calitative de comunicare, concepute ca un proces statistic, la baza teoriei informației. Articolul se deschide cu afirmația că:

„Problema fundamentală a comunicării constă în reproducerea la un moment dat, exact sau aproximativ, a unui mesaj selectat într-un alt punct.”

Odată cu aceasta s-au născut ideile:

Generalitate

Principalele concepte care stau la baza teoriei informației pot fi înțelese referindu-ne la un exemplu simplu: limbajul uman. În general, într-o limbă, cele mai utilizate cuvinte sunt mai scurte decât cele mai puțin folosite. De exemplu, „salut” este mai scurt decât „consistent”; în plus, chiar dacă uneori nu este posibil să înțelegem toate cuvintele unui discurs, sensul rămâne clar. Scopul teoriei informației este tocmai de a oferi metode de comprimare la maximum a informațiilor produse de o sursă eliminând toată redundanța (aceasta se numește codare sursă ), înainte de a adăuga un anumit nivel de redundanță într-o manieră țintită, la scopul de a face comunicarea (sau arhivarea) cea mai protejată de zgomot (vorbim în acest caz de codare a canalelor ). Studiul acestei teorii, ale cărui principii sunt deja prezente în formele umane de comunicare, a permis o dezvoltare excepțională în transmiterea și stocarea informațiilor încă din anii 1940.

În general, este considerată ca nașterea teoriei publicării lucrării "A Mathematical Theory of Communication" (O teorie matematică a comunicării) de Claude Shannon ; Rezultatele fundamentale prezentate în lucrarea sa sunt două: enunțarea teoremei primului Shannon (sau teorema de codificare a sursei), care afirmă că, în medie, numărul de biți necesari pentru a reprezenta rezultatul unui eveniment stochastic este egal cu entropia acestuia, astfel furnizarea unei limite superioare pentru posibilitatea comprimării datelor; al doilea rezultat, cunoscut sub numele de teorema de codare a canalului zgomotos sau teorema codării canalului, stabilește totuși că rata maximă de informații transferabile în mod fiabil pe un canal afectat de zgomot este sub un anumit prag care ia numele capacității canalului . Capacitatea poate fi abordată după dorință, utilizând sisteme de codare și decodare adecvate.

Teoria informației este strâns legată de o serie de discipline pure și aplicate care au fost proiectate și proiectate în ultimii șaizeci de ani: sisteme adaptive , inteligență artificială , sisteme complexe , cibernetică , informatică , învățare automată și multe altele. Prin urmare, teoria informației este o teorie matematică largă și aprofundată, cu aplicații la fel de largi și profunde, al cărei scop principal rămâne, totuși, teoria codificării .

Teoria codării se referă la studiul metodelor practice, numite coduri , pentru a crește eficiența unei transmisii și a reduce probabilitatea de eroare cât mai mult posibil, în limitele stabilite și demonstrate de Shannon pentru un canal dat; aceste coduri pot fi împărțite în tehnici de compresie a datelor (codare sursă) și corectare a erorilor (codare canal). În cel de-al doilea caz, au trecut mulți ani până când a fost posibil să se obțină rezultate apropiate de limitele oferite de Shannon. O a treia clasă de coduri sunt algoritmi criptografici. Conceptele și metodele teoriei informației sunt de fapt utilizate pe scară largă în criptografie și criptanaliză .

Teoria informației este folosită acum și în teoria jocurilor și în studiul piețelor bursiere , precum și în compoziția muzicală .

Cantitatea teoriei informației

Teoria informației se bazează pe teoria probabilității și a statisticii . Principala cantitate de informații sunt „ entropia , și anume informațiile conținute într-o variabilă aleatorie , și„ informația reciprocă , adică cantitatea de informații partajate între două variabile aleatoare. Primul indică faptul că un mesaj poate fi comprimat, în timp ce al doilea este util pentru a găsi rata de comunicare posibilă pe un canal .

Alegerea bazei logaritmice utilizate în următoarele formule determină unitatea de măsură utilizată pentru entropie. Cea mai comună unitate de măsură este, fără îndoială, bitul , care este utilizat dacă alegeți să utilizați logaritmi în baza 2. Alte unități de măsură includ nat , dacă utilizați logaritmul natural și hartley , care se bazează pe logaritmul la baza 10 .

În cele ce urmează, o expresie în formă Este considerat prin convenție egal cu 0 atunci când p este zero. Acest lucru se justifică cu faptul că pentru orice bază logaritmică.

Entropie

Entropia unui Bernoulli variabil

În funcție de probabilitatea de succes, denumită adesea entropie binară, . Entropia este maximă și valorează 1 bit, atunci când probabilitatea de succes este de 0,5, ca în cazul aruncării de monede.

L 'entropie, , a unei variabile aleatorii discrete , Valoarea asociată este măsura cantității de incertitudine a .

Să presupunem că transmitem 1000 de biți (0 și 1). Dacă acești biți sunt cunoscuți înainte de transmisie (adică își asumă o anumită valoare cu probabilitatea 1), logica necesită că nu au fost transmise informații. În schimb, dacă fiecare bit este independent de ceilalți și are o probabilitate egală de a fi 0 sau 1, au fost trimiși 1000 de biți (în sensul teoriei informației). Între aceste două extreme, cantitatea de informații poate fi cuantificată după cum urmează. De sine este ansamblul tuturor valorilor decât variabila poate lua și este probabilitatea ca merită , asa de are

bit de entropie (Aici, Informarea de sine , este contribuția entropiei atașată fiecărui mesaj). O proprietate importantă a entropiei este că este maximă atunci când toate mesajele din spațiul posibilelor mesaje sunt echipabile, adică mai imprevizibile. În acest caz

Cazul special al unei variabile aleatoare cu două ieșiri posibile este „entropia binară:

Entropie articulară

Entropia comună a două variabile aleatorii discrete și este pur și simplu entropia cuplului: . Aceasta implică faptul că, dacă Și sunt independenți , atunci entropia lor comună este suma entropiilor lor individuale.

De exemplu, dacă Reprezintă poziția unei bucăți de șah ( linia ed coloana), atunci entropia comună a rândului și a coloanei pe care este așezată piesa va fi entropia poziției piesei.

În ciuda unei notații similare, entropia articulară nu trebuie confundată cu „ entropia încrucișată .

Entropie condiționată

L ' entropie condițională a unei variabile aleatorii , dată fiind variabila aleatorie Și

Entropia condiționată a dată fiind variabila aleatorie (numit și neînțelegere a cu ) este entropia condițională împărțită la medie .

O proprietate fundamentală a entropiei condiționate este că:

Informații reciproce

Informația reciprocă măsoară cantitatea de informații dintr-o variabilă aleatorie care poate fi derivată prin observarea alteia. Într-un sistem de comunicații este important ca cantitatea de informații partajată de semnalele trimise și primite să fie maximizată. Informații reciproce ale , relativ la Și:

O proprietate importantă a informației reciproce este aceea

Adică, știind Y, putem economisi în medie biți în codificarea lui X, comparativ cu cazul în care Y este necunoscut.

Informațiile reciproce sunt simetrice;

Informarea reciprocă poate fi exprimată ca medie a divergenței Kullback-Leibler a probabilității posterioare a X având în vedere valoarea Y, în comparație cu probabilitatea a priori a X:

Cu alte cuvinte, măsoară cât de mult, în medie, se schimbă distribuția probabilității lui X dacă știm valoarea lui Y. Aceasta este adesea calculată ca o divergență față de produsul distribuțiilor marginale în ceea ce privește distribuția comună reală:

Informațiile reciproce pot fi considerate o statistică pentru a stabili independența între o pereche de variabile și are o distribuție asimptotică bine specificată.

Kullback - divergența Leibler

Divergența Kullback-Leibler (sau entropia relativă) este o modalitate de a compara două distribuții: o distribuție de probabilitate „adevărată” p (X) și o distribuție arbitrară q (X). Dacă comprimăm datele într-un fel, astfel încât q (x) este distribuția urmată de datele comprimate, atunci când de fapt distribuția datelor este p (x) , divergența Kullback - Leibler este numărul de biți suplimentari medii pentru datele necesare compresiei. Prin urmare, este definit ca

Deși este, în unele cazuri, folosit ca metrică pentru „distanță”, nu este o metrică adevărată, deoarece nu este simetrică.

Aplicații

Capacitatea canalului

Pictogramă lupă mgx2.svg Același subiect în detaliu: Teorema codării canalelor .

Studiul comunicării pe un canal, cum ar fi un cablu Ethernet , este motivația înainte de nașterea teoriei informației. După cum știe oricine a folosit un telefon, se poate întâmpla ca canalul să nu poată transporta semnalul fără a-l „deteriora”; distorsiunile, ecourile sau zgomotul sunt doar câteva exemple de corupție a semnalului care duc la o degradare a calității comunicării. Întrebarea care se pune este deci care este rata maximă (sau rata de biți ) pe care pot spera să o comunic pe un „canal zgomotos” (adică care degradează comunicarea)?

Să luăm în considerare procesul de comunicare pe un canal discret. Un model simplu al procesului este prezentat în figură

Sistem de comunicare.png

Aici X reprezintă spațiul mesajelor transmise, iar Y spațiul mesajelor primite în timpul unei unități de timp pe canalul nostru. Este distribuția probabilității condiționate a lui Y dat fiind X. Vom lua în considerare o proprietate a canalului, care nu se schimbă și care, în esență, este zgomotul care afectează canalul. Apoi distribuția comună a lui X și Y este complet determinată de canal și de alegerea lui , adică distribuția marginală a mesajului pe care decidem să îl trimitem pe canal. Având în vedere aceste constrângeri, vrem să maximizăm cantitatea de informații sau semnalul, vrem să comunicăm pe canal. Măsura adecvată pentru această cantitate este „ informația reciprocă și informația reciprocă maximă se numește capacitatea canalului , care este dată de:

Această capacitate are următoarele proprietăți, legate de rata de informații transmisă R (unde R este de obicei în biți pe simbol). Pentru fiecare rată R <C informații și eroare de codare ε> 0, pentru N suficient de mare, există o lungime de cod N și o rată R și un algoritm de codare astfel încât probabilitatea maximă de eroare să fie mai mică sau egală cu ε; cu alte cuvinte, este întotdeauna posibil să transmiteți cu orice rată de eroare scăzută. În plus, pentru fiecare rată R> C, nu puteți transmite cu o rată de eroare scăzută după bunul plac.

Teoria sursei

Orice proces care generează mesaje succesive poate fi considerat o sursă de informații. O sursă de memorie liberă este o sursă astfel încât fiecare mesaj este o variabilă aleatorie independentă și distribuită identic , în timp ce proprietățile ergodicității și staționarității impun constrângeri mai restrictive. Toate aceste surse sunt stochastice .

Bursuc

Rata informației este entropia medie pe simbol. Pentru sursele fără memorie, aceasta este pur și simplu entropia fiecărui simbol, în timp ce în cazul mai general

Tocmai aceasta este entropia condițională așteptată pe mesaj (adică pe unitate de timp) date tuturor mesajelor generate anterior. În teoria informației este obișnuit să vorbești despre „rata” sau „entropia” unei limbi. Acest lucru este adecvat, de exemplu, atunci când sursa informației este proza ​​engleză. Viteza unei surse fără memorie este pur și simplu , deoarece, prin definiție, nu există interdependență între mesajele succesive ale unei surse fără memorie. Rata unei surse de informații este legată de redundanța acesteia și de cât de bine poate fi comprimată.

Teoria codului

Pictogramă lupă mgx2.svg Același subiect în detaliu: teoria codării .

Teoria codului este cea mai importantă și directă aplicare a teoriei informației. Poate fi împărțit în codificare cod sursă și codificare canal. Folosind o descriere statistică a datelor, teoria informației cuantifică numărul de biți necesari pentru a descrie datele, această cantitate fiind entropia informațională a sursei.

  • Compresia datelor (codare sursă): Există două formulări pentru această problemă:
  1. compresie fără pierderi, atunci când datele trebuie să fie reconstituite exact
  2. compresie cu pierderi prin alocarea biților necesari pentru reconstituirea datelor într-un interval de fidelitate măsurat de funcția de distorsiune. Această ramură a teoriei informației se numește teoria distorsiunii ratei.
  • Coduri de corectare a erorilor (codare canal): În timp ce compresia datelor este destinată să elimine cât mai multă redundanță posibil, un cod de corectare a erorilor adaugă tipul corect de redundanță necesar pentru a transmite datele în mod eficient și fiabil pe un canal Noisy.

Împărțirea teoriei codului între compresie și transmisie este justificată de teoremele transmiterii informațiilor, care justifică utilizarea biților ca măsură universală a informației în multe contexte. Cu toate acestea, aceste teoreme sunt valabile doar în situația în care un utilizator care transmite vrea să comunice cu un utilizator care primește. În scenariile cu mai mulți expeditori sau mai mulți destinatari, este posibil ca compresia urmată de transmisie să nu fie optimă.

Utilizări de către serviciile secrete și aplicațiile de securitate

Conceptele de teorie a informației sunt utilizate pe scară largă în criptografie și criptanaliză . Pentru un exemplu istoric interesant, a se vedea deciban. Shannon însuși a definit un concept important numit acum distanța unicității . Pe baza redundanței textului, încearcă să ofere cantitatea minimă de text cifrat necesară pentru a asigura decriptarea unică.

Teoria informației lui Shannon este extrem de importantă la locul de muncă, mult mai mult decât indică utilizarea sa în criptografie. Serviciile secrete folosesc teoria informației pentru a păstra secretul informațiilor confidențiale și pentru a descoperi cât mai multe informații despre un adversar într-un mod sigur. Teorema Shannon-Hartley ne face să credem că păstrarea secretelor este mult mai dificilă decât s-ar putea crede inițial. În general, nu este posibilă oprirea scurgerii de informații confidențiale, ci doar încetinirea acestora. Mai mult, pe măsură ce crește numărul persoanelor care au acces la informații și crește timpul pe care acești oameni trebuie să-l dedice muncii și revizuirea acestor informații, crește redundanța pe care o dobândesc aceste informații. Este extrem de dificil să conțineți fluxul de informații care are o redundanță ridicată. Scurgerea inevitabilă a informațiilor confidențiale se datorează faptului psihologic că ceea ce știu oamenii le afectează comportamentul, chiar și într-un mod foarte subtil.

Generarea de numere pseudo-aleatorii

Un bun exemplu de aplicare a teoriei informației la comunicațiile ascunse este proiectarea codificării semnalelor din sistemul de poziționare globală . Sistemul folosește un generator de numere pseudorandom care pune semnalul radio sub podeaua de zgomot. Deci, un ascultător de radio nu ar putea nici măcar să înțeleagă că există un semnal prezent, deoarece ar fi înecat de diferite surse de zgomot (zgomot atmosferic sau de antenă). Cu toate acestea, făcând integralul pe o perioadă lungă de timp, folosind secvența pseudorandomică „secretă” (dar notează destinatarului), este posibil să detectezi semnalul și să înțelegi modulațiile. În sistemul global de poziționare, semnalul C / A a fost publicat ca o secvență de 1023 biți, dar secvența pseudorandom utilizată în P (Y) rămâne secretă. Aceeași tehnică poate fi utilizată pentru a transmite informații ascunse folosind sisteme de rază scurtă și de putere foarte mică, fără ca un dușman să observe existența semnalului radio. Este analog steganografiei . A se vedea, de asemenea, spectrul de comunicații.

Alte aplicații

Teoria informației are și aplicații în domeniul jocurilor de noroc , al bioinformaticii și al muzicii .

Bibliografie

Articolul clasic

Alte articole științifice

Manuale

Ediția a II-a. New York: Wiley-Interscience, 2006. ISBN 0-471-24195-4 .

Alte cărți

  • (EN) James Bamford, The Puzzle Palace, Penguin Books, 1983. ISBN 0-14-006748-5
  • (EN) Leon Brillouin, Science and Information Theory, Mineola, NY: Dover, [1956, 1962], 2004. ISBN 0-486-43918-6
  • (EN) AI Khinchin, Mathematical Foundations of Information Theory, New York: Dover, 1957. ISBN 0-486-60434-9
  • (EN) HS Leff și AF Rex, editori, Maxwell's Demon: Entropy, Information, Computing, Princeton University Press, Princeton, NJ (1990). ISBN 0-691-08727-X
  • (EN) Tom Siegfried, Bitul și pendulul, Wiley, 2000. ISBN 0-471-32174-5
  • (EN) Charles Seife, Decoding The Universe, Viking, 2006. ISBN 0-670-03441-X
  • ( EN ) EM Rogers, TW Valente, A History of information theory in communication research in: JR Schement, BD Ruben (a cura di), Information and behavior volume 4: Between communication and information , Transaction Publishers, New Brunswick (NJ), 1993.

Voci correlate

Applicazioni

Storia

Teoria

Concetti

Collegamenti esterni

Controllo di autorità Thesaurus BNCF 22088 · LCCN ( EN ) sh85066289 · GND ( DE ) 4026927-9 · BNF ( FR ) cb119321069 (data) · NDL ( EN , JA ) 00575012