Entropie

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare
Notă despre dezambiguizare.svg Dezambiguizare - Dacă sunteți în căutarea pentru alte sensuri, vezi entropiei (dezambiguizare) .
Topirea gheții are loc cu o creștere a entropiei.

Entropy (din greaca veche ἐν en „transformare“, „interior“ și τροπή Trope,) este, în mecanica statistică , o cantitate (mai precis o coordonata generalizată ) , care este interpretată ca o măsură a tulburării prezente într - un sistem de orice fizice , inclusiv, ca un caz extrem, Universul . În general este reprezentată de scrisoare . În Sistemul Internațional se se măsoară în jouli împărțit la kelvin (J / K).

In termodinamica clasica , primul câmp în care a fost introdus de entropie, este o stare funcție a unui sistem în echilibru termodinamic , care, prin cuantificarea indisponibilitatea unui sistem de produse de lucru , se introduce împreună cu a doua lege a termodinamicii . Pe baza acestei definiții , se poate spune, într - o formă non-riguroase dar explicative, că atunci când un sistem trece de la o stare de ordonat echilibru la una dezordonată, creșterile sale entropia; acest fapt oferă indicații cu privire la direcția în care un sistem evoluează spontan.

Abordarea moleculara a mecanicii statistice generalizează entropie statelor neechilibru corelarea mai strânsă cu conceptul de ordine, tocmai posibile aranjamente diferite ale nivelurilor moleculare și , prin urmare , diferite probabilități ale statelor în care un sistem în sine poate găsi macroscopic [1 ] .

Conceptul de entropie a fost extinsă la zonele care nu sunt strict fizice, cum ar fi științele sociale , semnal de teorie, teoria informației , câștigă popularitate pe scară largă.

Entropie și tulburare

Conceptul de „entropie“ este destul de complexă și cel puțin cunoștințe de bază a termodinamicii și a mecanicii cuantice este necesară pentru a înțelege pe deplin sensul său; de fapt, există cel puțin două definiții riguroase ale entropiei: o definiție macroscopică, furnizată de termodinamică și o definiție microscopică, furnizată de mecanica cuantică.

Cu toate acestea, este posibil să se dea o explicație simplificată a entropiei, interpretând - o ca „gradul de dezordine“ a unui sistem . Astfel, o creștere a „tulburării” unui sistem este asociată cu o creștere a entropiei, în timp ce o scădere a „tulburării” unui sistem este asociată cu o scădere a entropiei; cu toate acestea, este necesar să se clarifice faptul că tulburarea este relativă și, din acest motiv, explicația simplificată nu este echivalentă cu cea exactă; cu toate acestea, acest lucru servește pentru a reprezenta conceptul.

Pentru o mai mare claritate, figura următoare prezintă trei configurații ale aceluiași sistem format din 24 de obiecte, în care există o creștere a tulburării (adică o creștere a entropiei) care merge de la stânga la dreapta și o scădere a tulburării (adică o scădere a entropiei ) mergând de la dreapta la stânga.

Reprezentarea gradului de tulburare a unui sistem: ordonat (a), cu grad scăzut de tulburare (b) și dezordonat (c).

Figura următoare prezintă un exemplu practic în termodinamică în care există o creștere a tulburării (adică o creștere a entropiei). În acest caz, „obiectele” sunt molecule de două gaze (fiecare gaz are o culoare diferită), de exemplu, să presupunem că bilele albastre sunt molecule de oxigen și bilele roșii sunt molecule de azot.

Reprezentarea unui sistem (format din două gaze diferite) în care entropia crește.

Inițial, gazele sunt localizate în două compartimente sigilate, astfel încât doar moleculele cu același tip de gaz sunt prezente în fiecare compartiment. Dacă cele două compartimente sunt puse în comunicație (de exemplu prin deschiderea unei supape ), cele două gaze se amestecă între ele și există o creștere a tulburării sau o creștere a entropiei (care în acest caz se numește „schimbarea entropiei amestecului ").

În exemplul anterior am asistat la o creștere „spontană” a entropiei (a fost suficient să punem cele două compartimente în comunicare). Această creștere spontană a entropiei are loc întotdeauna în natură, în timp ce nu are loc o scădere spontană a entropiei. Această constatare empirică se traduce în faptul că „dezordonate“ configurații sunt cel mai probabil și corespunde așa-numitei „ A doua lege a termodinamicii “.

Alte sisteme care pot lua la diferite grade de tulburare sunt metalice materiale . De fapt, ei pot asuma următoarele structuri:

  • structură cristalină (ordonată): atomii sunt dispuși în mod ordonat; o structură cristalină este alcătuită din mai multe „celule” toate identice una cu alta, care se repetă în spațiu; în acest caz vorbim de „ordine pe termen lung”;
  • structură policristalină (parțial ordonată): există mai multe „cristale” (structuri ordonate) în interiorul materialului; în acest caz vorbim de „ordinea razelor scurte”;
  • structură amorfă (dezordonată): atomii sunt dispuși într-o manieră complet dezordonată; nu există nici o ordine pe termen scurt, nici o ordine pe termen lung.
Structuri posibile ale unui material metalic: structură cristalină (stânga), structură policristalină (centru) și structură amorfă (dreapta).

Tulburarea structurilor materialelor metalice crește și în prezența așa-numitelor „ defecte cristaline ” (inclusiv includerea altor tipuri de atomi sau lipsa unui atom într-o poziție a rețelei), a cărei prezență determină o creșterea conținutului entropic al materialului.

Istorie și definiție

Conceptul de entropie a fost introdus la începutul secolului al XIX-lea , în domeniul termodinamicii, pentru a descrie o caracteristică (a cărei generalitate a fost observată pentru prima dată de Sadi Carnot în 1824) a tuturor sistemelor cunoscute atunci, în care s-a observat că transformările au avut loc spontan într-o singură direcție, spre cea mai mare dezordine.

În special, termenul „entropie“ , a fost introdus de Rudolf Clausius în Abhandlungen lui über die MECHANISCHE Wärmetheorie (Treatise pe teoria mecanică a căldurii), publicată în 1864. În limba germană derivă Entropie din greacă ἐν en, „interior“, și de la τροπή Trope, „schimbare“, „punct de cotitură“, „răsturnare“ (pe modelul de energie,energie “): pentru Clausius a indicat în cazul în care energia furnizată de un sistem se termină. În mod corespunzător Clausius menit să facă referire la legătura dintre mișcarea internă (a corpului sau a sistemului) și energia internă sau căldură, o legătură care a făcut în mod explicit marea intuiție a Iluminismului , care într - un fel de căldură trebuie să facă referire la mișcarea mecanică a particulelor în interiorul corpul. De fapt, el a definit ca raportul dintre suma mici ( infinitezimale ) crește de căldură , împărțită la temperatura absolută în timpul schimbării statului.

Pentru a clarifica conceptul de entropie putem prezenta câteva exemple:

  • Dacă aruncăm o picătură de cerneală într-un pahar cu apă , putem observa că, în loc să rămânem o picătură mai mult sau mai puțin separată de restul mediului (care era deci o stare complet ordonată), cerneala începe să difuzeze și, într-un anumit timp, determină un amestec uniform (stare complet dezordonată). Este o experiență obișnuită faptul că, în timp ce acest proces are loc spontan, procesul invers - separarea apei de cerneală - necesită energie externă.
  • Să ne imaginăm un parfum conținută într - o sticlă umplută ca un set de punct-ca molecule cu o anumită viteză care rezultă din temperatura parfumului. Atâta timp cât sticla este corked, adică izolat de restul universului, moleculele sunt blocate în interiorul și, neavând spațiu , deoarece sticla este plin, ele rămân destul de ordonat ( stare lichidă ); dar atunci când sticla este destupat, moleculele suprafața lichidului începe să se detașeze de ceilalți și, prin lovire accidental reciproc și pe pereții sticlei, ei ies din ea dispersat exterior ( evaporare ). După ceva timp, toate moleculele se vor fi stins și dispersate. În acel moment, chiar dacă unele molecule ar fi accidental re-intrat în sticla, sistemul global este acum dezordonate și energia termică , care a stabilit fenomenul în mișcare este dispersată și , prin urmare , nu mai recuperabile (există un echilibru dinamic ).

Conceptul de entropie a cunoscut o mare popularitate în secolele XIX și XX, datorită cantității mari de fenomene pe care îl ajută să descrie, până la ieșirea din sfera pur fizică și de a fi adoptat de către științele sociale, în teoria semnalelor , în informatică teoretică. cât și în economie . Cu toate acestea, trebuie remarcat faptul că există o clasă de fenomene, numite fenomene neliniare (de exemplu haotic fenomene) , pentru care legile termodinamicii (și , prin urmare , de asemenea , entropie) , trebuie să fie profund revizuită și nu mai au valabilitate generală.

Postulat de entropie

O proprietate fundamentală, de asemenea , numit (impropriu [2] ) postulatul entropie, afirmă că într - un sistem izolat entropia a sistemului nu scade niciodată și, în timpul unui proces obișnuit ireversibil, crește. Dovada este următoarea: luați în considerare un sistem izolat atât mecanic, cât și termic care, din cauza unei perturbații interne, se deplasează dintr-o stare la un stat . Deoarece entropia este o funcție de stat, prin definiție , variația sa nu depinde de calea de urmat, dar numai cu privire la starea inițială și finală, este posibil să se conceapă un proces reversibil , care ne aduce înapoi de la la . Pentru inegalitatea lui Clausius avem:

Dar acest circuit poate fi divizat în suma celor două integrale de către stat la si invers:

Prima integrală este zero , deoarece procesul este adiabatic , adică, din moment ce sistemul este izolat, ea nu suferă transferuri de căldură cu exteriorul. A doua integrală poate fi scrisă sub forma:

Atunci:

Adică:

Definiție termodinamică

Variația funcției de stare a entropiei a fost introdus în 1864 de Rudolf Clausius în domeniul termodinamicii ca: [3]

unde este este cantitatea de căldură absorbită sau eliberată într - un reversibil și izotermă mod de către sistem la temperatură .

În forma diferențială, legea arată astfel: [4]

Deşi nu este o diferență de exact , împărțiți - l de temperatura face acest lucru: prin urmare , este factorul de integrare . În plus, este o diferență de exact dacă și numai în cazul în care a doua lege a termodinamicii este valabilă.

Într - una din mai multe formulări sale, a doua lege a termodinamicii spune că într - un sistem izolat de entropie poate doar să crească, sau cel puțin să rămână constante pentru cicluri termodinamice reversibile.

Gazele perfecte

Transformare izotermă reversibilă

Energia internă este un gaz ideal numai în funcție de temperatură, în condiții izoterme , Prin urmare , prin aplicarea primului principiu al termodinamicii avem egalitatea de căldură și de muncă schimbate, adică:

rezultă că pentru o transformare între state Și în absența izocoră de muncă , avem:

[5]

pentru un mol de gaz ideal, din ecuația de stare a gazelor ideale :

adică:

asa de:

Putem rescrie ecuația de mai sus în funcție de presiune, dacă considerăm că în acest caz particular (transformare izotermă reversibilă a unui gaz ideal) [6] .

adică:

asa de:

Transformare izocorică reversibilă

Din definiția entropiei:

in care este molara căldura specifică la volum constant ( în funcție de temperatură) e este media sa între temperaturi Și .

Deci, pentru un mol de gaz perfect:

Transformare izobarică reversibilă

Urmând aceeași procedură, putem scrie:

in care este căldura specifică molară la presiune constantă (funcția temperaturii) e este media sa între temperaturi Și .

Deci, pentru un mol de gaz perfect:

Transformare reversibilă

Entropy fiind o stare funcție , luând în considerare orice transformare reversibilă dintr - un stat catre unul , Cu definit de presiune , temperatură și ocupat volum , este posibil să se calculeze variația de entropie prin efectuarea Clausius integrală

pe orice reversibila cale, de exemplu , cu privire la compoziția unui reversibil isochore cu reversibil izotermă . Acesta se obține pentru n mol (depinde numai de statele Și ):

din care, prin aplicarea noțiunii de stat funcție, obținem o formulare analitică pentru entropia ca funcție a variabilelor de stare, până la o constantă aditiv:

Este echivalent, prin ecuația de stare a gazelor ideale , celelalte două forme, uneori utilă, definită întotdeauna până la o constantă aditiv:

In care este coeficientul de politropice . Astfel , se remarcat faptul că , în reversibile transformări adiabatice , entropia rămâne constantă (pentru acest motiv , ele sunt , de asemenea , numite isentropic).

Sisteme materiale

Pentru a calcula entropia asociată cu sistemele de materiale, este posibil să se realizeze o integrare care ia în considerare contribuțiile datorate modificărilor în stare. Pentru o substanță gazoasă la o temperatură , entropia molară poate fi derivată din

unde este , , sunt respectiv căldurile specifice ale substanței în stare solidă, lichidă și gazoasă în timp ce , sunt căldura latentă de fuziune și căldura latentă de fierbere, respectiv .

Energie și entropie

Presupunând că întregul univers este un sistem izolat - adică, un sistem pentru care este imposibil de materie de schimb și de energie cu exteriorul - cu prima și a doua principii ale termodinamicii pot fi rezumate după cum urmează:

totalul energiei universului este constantă și entropia totală este în continuă creștere , până când se ajunge la un echilibru

declarație valabilă pentru orice sistem izolat.

Aceasta înseamnă că nu numai că energia nu poate fi creată și nici distrusă, ci nu poate fi complet transformată dintr-o formă în alta fără ca o parte să fie disipată sub formă de căldură.

De exemplu, dacă o bucată de cărbune este ars, energia este conservată și transformată în energie conținută în dioxid de carbon , dioxid de sulf și alte reziduuri de ardere, precum și sub formă de căldură. Deși nici o energie a fost pierdut în acest proces, nu putem inversa de ardere procesul și recrea piesa originală de cărbune din deșeuri sale.

Doua lege a termodinamicii , prin urmare , poate fi redefinit după cum urmează: «Este imposibil să se realizeze o transformare a cărei rezultat este doar conversia în muncă a tuturor căldura absorbită de o sursă omogenă» (formulare Kelvin-Planck).

Starea în care entropia atinge valoarea sa maximă și nu este mai liber de energie disponibile pentru a face munca se numește starea de echilibru. Pentru întregul univers, conceput ca un sistem izolat, aceasta înseamnă că transformarea progresivă a muncii în căldură (prin principiul creșterii entropiei totale), în fața unei mase universale finite, va duce în cele din urmă la o stare în care întregul univers va fi în condiții de temperatură uniformă; așa-numita moartea termică a Universului .

Entropia caracterizează direcția oricărei transformări reale ca o transformare ireversibilă: de fapt, chiar revenind dintr-o stare finală la una identică cu starea inițială pentru temperatură, volum, presiune sau alți parametri, așa cum se întâmplă continuu în ciclurile unui motor termic, cel puțin o fizică variabilă ar diferi de punctul de plecare: entropia (care inevitabil a crescut).

Orice transformare reală este o transformare ireversibilă, deoarece entropia crește; invers, ipoteza idealității este echivalentă cu ipoteza unei variații de entropie zero.

Definiția cuantică a entropiei

În timp ce în viziunea entropia antropică este întotdeauna exprimată în termeni de variație, și niciodată în termeni absoluți, în mecanica cuantică că este posibil să se definească entropie în termeni absoluți, de exemplu , prin entanglement .

Luați în considerare două sisteme Și , Fiecare cu un asociat spațiu Hilbert , . Starea sistemului compozit este atunci:

În general, nu este posibil să se asocieze o stare pura cu componenta . Cu toate acestea, este încă posibil să se asocieze o matrice densitate cu ea . Să ne definim operatorul de proiecție

.

Starea de este trace parțială a pe baza sistemului :

.

De exemplu, pentru starea încurcate „clasic“ de Și , fiecare constând din două stări pure "0" și "1"

matricea densității este

și matricea densității de stare pură a Și

aceasta este pur și simplu proiecția operatorului . Rețineți că matricea de densitate a sistemului compozit, , are aceeași formă. Acest lucru nu este surprinzător, deoarece starea clasică încurcată este o stare pură.

Având în vedere orice matrice de orice densitate, , putem calcula cantitatea

unde este este constanta lui Boltzmann , iar urma este luată în spațiu unde este definit . Se pare ca este exact entropia sistemului corespunzătoare .

Entropia oricărei stări pure este zero, deoarece nu există nicio incertitudine cu privire la starea sistemului. Entropia fiecăruia dintre cele două subsisteme Și încâlcit este pur și simplu , maximul permis pentru un sistem cu două stări.

Dacă sistemul în ansamblu este pur, entropia fiecărui subsistem poate fi utilizată pentru a măsura gradul de „încâlcire” cu celelalte subsisteme.

Acesta poate fi , de asemenea , se arată modul în care operatorii unitare care acționează asupra unui stat, cum ar fi operatorul evoluției în timp obținut din ecuația lui Schrödinger , lăsați entropie neschimbată. Reversibilitatea unui proces este , prin urmare , asociat cu variația entropiei, confirmând astfel teoria termodinamică și, în același timp, entropia unui semnal conform teoriei informației .

Definiție statistică

În mecanica statistică, studiul entropiei este un mijloc de a obține informații macroscopice pornind de la configurații microscopice. Se imaginează intuitiv că unei anumite condiții de echilibru macroscopic a sistemului (macrostat sau stare termodinamică a sistemului, definită de valori precise ale mărimilor, cum ar fi presiunea și temperatura), corespund diferite configurații microscopice (stări dinamice sau microstate, numai definite dacă sunt cunoscute poziția și viteza tuturor moleculelor sistemului).

Astfel de configurații microscopice ocupă un volum în spațiul de fază care este indicat cu . Apoi , putem defini entropia în conformitate cu principiul lui Boltzmann ca: [3] [7]

unde este este constanta lui Boltzmann .

Putem defini ca măsură a setului tuturor aranjamentelor posibile (sau probabilităților macroscopice) ale nivelurilor moleculare: prin urmare, reprezintă numărul total de stări accesibile sistemului la temperatură . Această măsură ia în considerare indistinguibilitatea dintre particule prin introducerea factorului de corecție Gibbs.

Pentru a înțelege semnificația fizică a Sa luam ca exemplu un caz de entropie prin amestecarea cu referire la un cristal de atomi . Să presupunem că introducem atomi (similar ca dimensiune și din punct de vedere electronic) pe site-urile prin simplă substituție: în acest fel avem un număr de atomi și un număr de atomi che si distribuiscono nei siti del cristallo. Man mano che introduciamo gli atomi nei siti di aumenta il numero delle configurazioni possibili tra gli atomi e , cioè aumenta la possibilità di ottenere distribuzioni diverse: questo fatto coincide con un aumento del grado di disordine del sistema, e quindi con un aumento di entropia. Il numero massimo di configurazioni corrisponde al numero di modi possibili di distribuire a caso e oggetti su siti e vale:

In generale, se nel cristallo di A vengono introdotti diversi tipi di atomi simili ( , , ecc.), il numero massimo di configurazioni possibili vale:

A temperature ordinarie, nei gas, queste disposizioni seguono la distribuzione di Maxwell-Boltzmann , ma l'approccio può opportunamente estendersi, in maniera più complessa, a liquidi e solidi dove ad esempio non vige l'indistinguibilità delle singole particelle (poiché spazialmente vincolate ad esempio al reticolo cristallino). A basse temperature, prossime allo zero assoluto , le distribuzioni, in virtù del fatto che le particelle si concentrano nei livelli di energia più bassi, seguiranno differenti distribuzioni, come quella di Fermi-Dirac o di Bose-Einstein (a seconda del fatto che ricadano o meno sotto il principio di esclusione di Pauli ).

La definizione statistico-molecolare è considerata la fondamentale definizione di entropia, dato che tutte le altre possono esserne matematicamente derivate, ma non viceversa. Nelle lezioni di teoria del gas di Boltzmann, del 1896, si è dimostrata l'espressione della misura entropica per i sistemi di atomi e molecole in fase gassosa, fornendo quindi una misura per l'entropia in termodinamica classica.

Si può dimostrare che l'entropia così definita possiede tutte le caratteristiche dell'entropia termodinamica e in modo particolare si dimostra che è estensiva, ovvero gode della proprietà di additività (e differenza: per cui è calcolabile la variazione d'entropia e la funzione entropia è differenziabile, ovvero ha senso parlare di entropia in termini microscopici). La formula mostra che è estremamente improbabile, anche se non impossibile, che un sistema ritorni da una configurazione finale a una identica allo stato iniziale. La differenza fisica di significato tra entropia e temperatura è che la prima misura lo stato di disordine (fisico) del sistema, la seconda lo stato (energetico) di agitazione molecolare .

Dall'equazione , con alcune considerazioni combinatorie su e dalla distribuzione di Boltzmann degli stati possibili, si giunge alla:

dove è la temperatura , energia termica , costante dei gas , la funzione di partizione , e la costante di Avogadro .
La formula torna utile per il calcolo di nei gas.

Volendo informazioni macroscopiche del sistema basta derivare l'entropia rispetto a una delle sue variabili naturali , e (energia, numero di particelle e volume) tenendo costanti le altre. È necessario tenere conto che questa trattazione riposa sull' ipotesi ergodica che postula di poter sostituire la media temporale sulle configurazioni microscopiche con la media sulle configurazioni stesse (propriamente sostituire le medie temporali con quelle sull'ensemble -Gibbs- ).

Entropia di Gibbs

Lo stato macroscopico di un sistema è descrivibile dalla distribuzione di una serie di microstati . L'entropia di questo sistema è calcolata con la formula di Willard Gibbs .
Per un sistema della fisica classica (es. una collezione di particelle) avente un numero discreto di microstati, se indichiamo con l'energia dell'i-esimo microstato, e con la relativa probabilità che si verifichi durante le fluttuazioni del sistema, allora l'entropia di tale sistema è data da:

,

dove:
la quantità è la costante di Boltzmann, che, come l'entropia, è misurata in unità di capacità termica , mentre il logaritmo è un numero adimensionale.
Questa entropia è chiamata indifferentemente anche entropia statistica , oppure entropia termodinamica . Tale formula è la versione discreta dell' Entropia di Shannon . L'entropia di von Neumann è a sua volta una estensione dell'Entropia di Gibbs al fenomeno quanto-meccanico .
È stato dimostrato [8] che l'Entropia di Gibbs è del tutto equivalente alla definizione classica di entropia:

Equazione di bilancio

In un sistema isolato , ilsecondo principio della termodinamica asserisce che l'entropia può solo aumentare. In un sistema aperto , in cui quantità come calore, energia e massa possono fluire verso e dall'esterno, l'entropia del sistema può anche scendere. In un sistema aperto è spesso utile scrivere una equazione di bilancio .

Un sistema aperto è generalmente definito da un volume di controllo , ovvero una porzione dello spazio che determina il sistema in esame. Tutto ciò che non è contenuto in questo volume è esterno al sistema. L'entropia del sistema varia nel tempo, e la sua derivata è determinata da un'equazione di bilancio del tipo

dove , denotano rispettivamente la corrente di entropia netta e quella generata all'interno del sistema. Tutte queste quantità sono derivate temporali. In una equazione di bilancio normalmente il secondo termine può essere negativo, qui invece no conformemente alsecondo principio della termodinamica .

I termini di bilancio possono essere esplicitati nel modo seguente:

In questa espressione ciascuna delle correnti di entropia è spezzata in due addendi:

  • il termine conduttivo tiene conto dello scambio di calore con una sorgente termica esterna a temperatura .
  • il termine convettivo tiene conto della variazione di entropia dovuta a masse entranti o uscenti dal sistema; il termine indica la variazione di massa e l'entropia per unità di massa;

In un sistema chiuso il termine convettivo è nullo, per cui la relazione diventa:

In un sistema isolato si annullano anche i termini entropici legati al flusso termico, per cui:

Entropia nell'informazione

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Entropia (teoria dell'informazione) .

Si deve a Claude Shannon lo studio dell'entropia nella teoria dell'informazione, il suo primo lavoro sull'argomento si trova nell'articolo Una teoria matematica della comunicazione del 1948. Nel primo teorema di Shannon, o teorema di Shannon sulla codifica di sorgente, egli dimostrò che una sorgente casuale d'informazione non può essere rappresentata con un numero di bit inferiore alla sua entropia, cioè alla sua autoinformazione media.

Nella teoria dell'informazione - e in rapporto alla teoria dei segnali - l'entropia misura dunque la quantità di incertezza o informazione presente in un segnale aleatorio, che può essere interpretata anche come la minima complessità descrittiva di una variabile aleatoria , ovvero il limite inferiore della compressione dei dati. La connessione con l'entropia termodinamica sta allora nel rapporto di compressione: al diminuire della temperatura corrisponde la riduzione della ridondanza del segnale, e quindi l'aumento della compressione. L'entropia dell'informazione raggiunge un minimo, che in generale è diverso da zero, al contrario dell'entropia termodinamica (vedi terzo principio della termodinamica ).

Tale risultato era implicito nella definizione statistica dell'entropia di John Von Neumann , anche se lo stesso Von Neumann, interrogato al riguardo da Shannon nel forse unico scambio di opinioni tra loro, non ritenne la cosa degna di attenzione. Come ricordò Shannon più tardi a proposito del risultato da lui trovato:

«La mia più grande preoccupazione era come chiamarla. Pensavo di chiamarla informazione , ma la parola era fin troppo usata, così decisi di chiamarla incertezza . Quando discussi della cosa con John Von Neumann, lui ebbe un'idea migliore. Mi disse che avrei dovuto chiamarla entropia , per due motivi: "Innanzitutto, la tua funzione d'incertezza è già nota nella meccanica statistica con quel nome. In secondo luogo, e più significativamente, nessuno sa cosa sia con certezza l' entropia , così in una discussione sarai sempre in vantaggio"»

Entropia nell'economia

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Entropia (economia) .

Georgescu-Roegen applicando il secondo principio della termodinamica all' economia , e in particolare all' economia della produzione, ha introdotto una teoria economica che discute i fondamentali della decrescita : ogni processo produttivo non diminuisce (e quindi incrementa irreversibilmente o lascia uguale) l'entropia del sistema- Terra : tanta più energia si trasforma in uno stato indisponibile, tanta più sarà sottratta alle generazioni future e tanto più disordine proporzionale sarà riversato sull'ambiente.

Note

  1. ^ Gordon M. Barrow, Physical Chemistry , WCB, McGraw-Hill, 1979
  2. ^ Poiché è dimostrabile, non è un vero postulato .
  3. ^ a b ( EN ) IUPAC Gold Book, "entropy"
  4. ^ ( EN ) JM Smith, HCVan Ness; MM Abbot, Introduction to Chemical Engineering Thermodynamics , 4ª ed., McGraw-Hill, 1987, p. 150. ISBN 0-07-100303-7
  5. ^ indica il volume molare, pari al volume rapportato al numero di moli, ovvero:
  6. ^ Infatti, dalla definizione dell' entalpia : ; e in termini differenziali: . Ma dU e dH sono nulli essendo la trasformazione a temperatura costante, quindi , ovvero
  7. ^ ( EN ) JM Smith, HCVan Ness; MM Abbot, Introduction to Chemical Engineering Thermodynamics , 4ª ed., McGraw-Hill, 1987, pp. 159-163. ISBN 0-07-100303-7
  8. ^ ET Jaynes; Gibbs vs Boltzmann Entropies; American Journal of Physics, 391, 1965

Bibliografia

Voci correlate

Altri progetti

Collegamenti esterni

Controllo di autorità Thesaurus BNCF 19353 · LCCN ( EN ) sh85044150 · GND ( DE ) 4014894-4 · BNF ( FR ) cb12099111d (data) · BNE ( ES ) XX528989 (data) · NDL ( EN , JA ) 00562019