Entropie

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare
Notă despre dezambiguizare.svg Dezambiguizare - Dacă sunteți în căutarea altor semnificații, consultați Entropie (dezambiguizare) .
Topirea gheții are loc odată cu creșterea entropiei.

Entropia (din greaca veche ἐν en , „în interior” și τροπή tropé , „transformare”) este, în mecanica statistică , o cantitate (mai precis o coordonată generalizată ) care este interpretată ca o măsură a tulburării prezente într-un sistem fizic , incluzând, ca caz extrem, Universul . În general este reprezentată de scrisoare . În sistemul internațional se măsoară în jouli împărțiți la kelvin (J / K).

În termodinamica clasică , primul câmp în care a fost introdusă entropia, este o funcție de stare a unui sistem în echilibru termodinamic , care, prin cuantificarea indisponibilității unui sistem de a produce muncă , este introdusă împreună cu a doua lege a termodinamicii . Pe baza acestei definiții se poate spune, într-o formă non-riguroasă, dar explicativă, că atunci când un sistem trece de la o stare de echilibru ordonat la unul dezordonat , entropia acestuia crește; acest fapt oferă indicații cu privire la direcția în care un sistem evoluează spontan.

Abordarea moleculară a mecanicii statistice generalizează entropia cu stări de neechilibru corelând-o mai strâns cu conceptul de ordine, tocmai cu posibilele aranjamente diferite ale nivelurilor moleculare și, prin urmare, cu probabilități diferite ale stărilor în care un sistem se poate regăsi macroscopic [1] ] .

Conceptul de entropie a fost extins la domenii care nu sunt strict fizice, precum științele sociale , teoria semnalului , teoria informației , câștigând popularitate pe scară largă.

Entropie și tulburare

Conceptul de „entropie” este destul de complex și este necesară cel puțin o cunoaștere de bază a termodinamicii și mecanicii cuantice pentru a înțelege pe deplin semnificația acestuia; de fapt, există cel puțin două definiții riguroase ale entropiei: o definiție macroscopică, furnizată de termodinamică și o definiție microscopică, furnizată de mecanica cuantică.

Cu toate acestea, este posibil să se dea o explicație simplificată a entropiei, interpretând-o ca „gradul de tulburare” al unui sistem . Astfel, o creștere a „tulburării” unui sistem este asociată cu o creștere a entropiei, în timp ce o scădere a „tulburării” unui sistem este asociată cu o scădere a entropiei; cu toate acestea, este necesar să se clarifice faptul că tulburarea este relativă și, din acest motiv, explicația simplificată nu este echivalentă cu cea exactă; cu toate acestea, acest lucru servește pentru a reprezenta conceptul.

Pentru o mai mare claritate, figura următoare prezintă trei configurații ale aceluiași sistem format din 24 de obiecte, în care există o creștere a tulburării (adică o creștere a entropiei) care merge de la stânga la dreapta și o scădere a tulburării (adică o scădere a entropiei ) mergând de la dreapta la stânga.

Reprezentarea gradului de tulburare a unui sistem: ordonat (a), cu grad scăzut de tulburare (b) și dezordonat (c).

Figura următoare prezintă un exemplu practic în termodinamică în care există o creștere a tulburării (adică o creștere a entropiei). În acest caz, „obiectele” sunt molecule de două gaze (fiecare gaz are o culoare diferită), de exemplu, să presupunem că bilele albastre sunt molecule de oxigen și bilele roșii sunt molecule de azot.

Reprezentarea unui sistem (format din două gaze diferite) în care entropia crește.

Inițial, gazele sunt localizate în două compartimente sigilate, astfel încât doar moleculele cu același tip de gaz sunt prezente în fiecare compartiment. Dacă cele două compartimente sunt puse în comunicație (de exemplu prin deschiderea unei supape ), cele două gaze se amestecă între ele și există o creștere a tulburării sau o creștere a entropiei (care în acest caz se numește „schimbarea entropiei amestecului ").

În exemplul anterior am asistat la o creștere „spontană” a entropiei (a fost suficient să punem cele două compartimente în comunicare). Această creștere spontană a entropiei are loc întotdeauna în natură, în timp ce nu are loc o scădere spontană a entropiei. Această constatare empirică se traduce prin faptul că configurațiile „dezordonate” sunt cele mai probabile și corespund așa-numitei „a doua legi a termodinamicii ”.

Alte sisteme care pot lua diferite grade de tulburare sunt materialele metalice . De fapt, ei pot asuma următoarele structuri:

  • structură cristalină (ordonată): atomii sunt dispuși în mod ordonat; o structură cristalină este alcătuită din mai multe „celule” toate identice una cu alta, care se repetă în spațiu; în acest caz vorbim de „ordine pe termen lung”;
  • structură policristalină (parțial ordonată): există mai multe „cristale” (structuri ordonate) în interiorul materialului; în acest caz vorbim de „ordine pe rază scurtă”;
  • structură amorfă (dezordonată): atomii sunt dispuși într-o manieră complet dezordonată; nu există nici o ordine pe termen scurt, nici o ordine pe termen lung.
Structuri posibile ale unui material metalic: structură cristalină (stânga), structură policristalină (centru) și structură amorfă (dreapta).

Tulburarea structurilor materialelor metalice crește și în prezența așa-numitelor „ defecte cristaline ” (inclusiv includerea altor tipuri de atomi sau lipsa unui atom într-o poziție a rețelei), a cărei prezență determină o creșterea conținutului entropic al materialului.

Istorie și definiție

Conceptul de entropie a fost introdus la începutul secolului al XIX-lea , în domeniul termodinamicii, pentru a descrie o caracteristică (a cărei generalitate a fost observată pentru prima dată de Sadi Carnot în 1824) a tuturor sistemelor cunoscute atunci, în care s-a observat că transformările au avut loc spontan într-o singură direcție, spre cea mai mare dezordine.

În special, termenul „entropie” a fost introdus de Rudolf Clausius în Abhandlungen über die mechanische Wärmetheorie ( Tratat despre teoria mecanică a căldurii ), publicat în 1864. În germană Entropie derivă din grecescul ἐν en , „în interior” și din τροπή tropé , „schimbare”, „punct de cotitură”, „răsturnare” (pe modelul Energie , „ energie ”): pentru Clausius indica unde ajunge energia furnizată unui sistem. În mod corect, Clausius a vrut să se refere la legătura dintre mișcarea internă (la corp sau sistem) și energia internă sau căldură, o legătură care a făcut explicită marea intuiție a Iluminismului , că într-un fel căldura ar trebui să se refere la mișcarea mecanică a particulelor din interior. corpul. De fapt, el l-a definit ca raportul dintre suma micilor ( infinitesimale ) creșteri ale căldurii , împărțite la temperatura absolută în timpul schimbării de stare.

Pentru a clarifica conceptul de entropie putem prezenta câteva exemple:

  • Dacă aruncăm o picătură de cerneală într-un pahar cu apă , putem observa că, în loc să rămânem o picătură mai mult sau mai puțin separată de restul mediului (care era deci o stare complet ordonată), cerneala începe să difuzeze și, într-un anumit timp, determină un amestec uniform (stare complet dezordonată). Este o experiență obișnuită faptul că, în timp ce acest proces are loc spontan, procesul invers - separarea apei de cerneală - necesită energie externă.
  • Să ne imaginăm un parfum conținut într-o sticlă umplută ca un set de molecule asemănătoare punctelor , cu o anumită viteză derivată din temperatura parfumului. Atâta timp cât sticla este dopată, adică izolată de restul universului, moleculele sunt blocate în interior și, neavând spațiu deoarece sticla este plină, ele rămân destul de ordonate ( stare lichidă ); dar când sticla este decupată, moleculele suprafeței lichidului încep să se detașeze de celelalte și, lovindu-se accidental una de cealaltă și de pereții sticlei, acestea ies din ea dispersându-se în exterior ( evaporare ). După ceva timp, toate moleculele se vor fi stins și dispersate. În acel moment, chiar dacă unele molecule au reintrat accidental în sticlă, sistemul general este acum dezordonat și energia termică care a pus în mișcare fenomenul este dispersată și, prin urmare, nu mai poate fi recuperată (există un echilibru dinamic ).

Conceptul de entropie a cunoscut o mare popularitate în secolele al XIX-lea și al XX-lea, datorită cantității mari de fenomene pe care le ajută să le descrie, până la părăsirea sferei pur fizice și a fost adoptat de științele sociale, în teoria semnalelor , în informatică teoretică.și în economie . Cu toate acestea, trebuie remarcat faptul că există o clasă de fenomene, numite fenomene neliniare (de exemplu fenomene haotice ) pentru care legile termodinamicii (și deci și ale entropiei) trebuie revizuite profund și nu mai au valabilitate generală.

Postulat de entropie

O proprietate fundamentală, numită și (în mod necorespunzător [2] ) postulatul de entropie , afirmă că într-un sistem izolat entropia a sistemului nu scade niciodată și, în timpul unui proces obișnuit ireversibil, crește. Dovada este următoarea: luați în considerare un sistem izolat atât mecanic, cât și termic care, din cauza unei perturbații interne, se deplasează dintr-o stare la un stat . Deoarece entropia este o funcție de stare, prin definiție variația sa nu depinde de calea urmată, ci doar de starea inițială și finală, este posibil să concepem un proces reversibil care ne aduce înapoi din la . Pentru inegalitatea lui Clausius avem:

Dar acest circuit poate fi divizat în suma celor două integrale de către stat la si invers:

Prima integrală este zero, deoarece procesul este adiabatic , adică, deoarece sistemul este izolat, nu suferă transferuri de căldură cu exteriorul. A doua integrală poate fi scrisă sub forma:

Atunci:

Adică:

Definiție termodinamică

Variația funcției de stare a entropiei a fost introdus în 1864 de Rudolf Clausius în domeniul termodinamicii ca: [3]

unde este este cantitatea de căldură absorbită sau eliberată într-o manieră reversibilă și izotermă de către sistem la temperatură .

În formă diferențială, legea arată astfel: [4]

Deşi nu este un diferențial exact , împărțiți-l la temperatură face acest lucru: este deci factorul integrării . În plus, este un diferențial exact dacă și numai dacă a doua lege a termodinamicii este valabilă.

În una dintre cele mai multe formulări ale sale, a doua lege a termodinamicii afirmă că într-un sistem izolat entropia poate crește doar sau cel puțin rămâne constantă pentru cicluri termodinamice reversibile.

Gazele perfecte

Transformare izotermă reversibilă

Energia internă este pentru un gaz ideal numai în funcție de temperatură, în condiții izoterme , prin urmare, aplicând primul principiu al termodinamicii avem egalitatea de căldură și muncă schimbată, adică:

rezultă că pentru o transformare între state Și în absența muncii izocorice , avem:

[5]

pentru un mol de gaz ideal, din ecuația stării gazelor ideale :

adică:

asa de:

Putem rescrie ecuația de mai sus în funcție de presiune, dacă considerăm că în acest caz particular (transformare izotermă reversibilă a unui gaz ideal) [6] .

adică:

asa de:

Transformare izocorică reversibilă

Din definiția entropiei:

in care este căldura specifică molară la volum constant (funcția temperaturii) e este media sa între temperaturi Și .

Deci, pentru un mol de gaz perfect:

Transformare izobarică reversibilă

Urmând aceeași procedură, putem scrie:

in care este căldura specifică molară la presiune constantă (funcția temperaturii) e este media sa între temperaturi Și .

Deci, pentru un mol de gaz perfect:

Transformare reversibilă

Entropia fiind o funcție de stare, având în vedere orice transformare reversibilă dintr-o stare catre unul , cu presiunea definită, temperatura și volumul ocupat, este posibil să se calculeze variația entropiei prin efectuarea integralei Clausius

pe orice cale reversibilă , de exemplu pe compoziția unui izocor reversibil cu o izotermă reversibilă. Se obține pentru n moli (depinzând doar de stări Și ):

din care, prin aplicarea noțiunii de funcție de stare , obținem o formulare analitică pentru entropie în funcție de variabile de stare, până la o constantă aditivă:

Este echivalent, prin ecuația stării gazelor ideale , cu celelalte două forme, uneori utile, întotdeauna definite până la o constantă aditivă:

In care este coeficientul poltropic . Se observă astfel că în transformările adiabatice reversibile entropia rămâne constantă (din acest motiv sunt numite și izentrope).

Sisteme materiale

Pentru a calcula entropia asociată cu sistemele materiale, este posibilă realizarea unei integrări care să ia în considerare și contribuțiile datorate schimbărilor de stare. Pentru o substanță gazoasă la o temperatură , entropia molară poate fi derivată din

unde este , , sunt respectiv căldurile specifice ale substanței în stare solidă, lichidă și gazoasă în timp ce , sunt căldura latentă de fuziune și respectiv căldura latentă de fierbere .

Energie și entropie

Presupunând că întregul univers este un sistem izolat - adică un sistem pentru care este imposibil să schimbi materia și energia cu exteriorul - primul și al doilea principiu al termodinamicii pot fi rezumate după cum urmează:

energia totală a universului este constantă și entropia totală crește continuu până la atingerea unui echilibru

declarație valabilă pentru orice sistem izolat.

Aceasta înseamnă că nu numai că energia nu poate fi creată și nici distrusă, ci nu poate fi complet transformată dintr-o formă în alta fără ca o parte să fie disipată sub formă de căldură.

De exemplu, dacă o bucată de cărbune este arsă, energia sa este conservată și transformată în energie conținută în dioxidul de carbon , dioxidul de sulf și alte reziduuri de ardere, precum și sub formă de căldură. Deși nu s-a pierdut energie în acest proces, nu putem inversa procesul de ardere și să recreăm bucata originală de cărbune din deșeurile sale.

A doua lege a termodinamicii poate fi, prin urmare, redefinită după cum urmează: «Este imposibil să se realizeze o transformare al cărei singur rezultat este transformarea în lucru a întregii călduri absorbite de o sursă omogenă» (formularea Kelvin-Planck).

Starea în care entropia atinge valoarea maximă și nu mai există energie liberă disponibilă pentru a lucra se numește starea de echilibru. Pentru întregul univers, conceput ca un sistem izolat, aceasta înseamnă că transformarea progresivă a muncii în căldură (prin principiul creșterii entropiei totale), în fața unei mase universale finite, va duce în cele din urmă la o stare în care întregul univers va fi în condiții de temperatură uniformă; așa-numita moarte termică a Universului .

Entropia caracterizează direcția oricărei transformări reale ca o transformare ireversibilă: de fapt, chiar revenind dintr-o stare finală la una identică cu starea inițială pentru temperatură, volum, presiune sau alți parametri, așa cum se întâmplă continuu în ciclurile unui motor termic, cel puțin o fizică variabilă ar diferi de punctul de plecare: entropia (care inevitabil a crescut).

Orice transformare reală este o transformare ireversibilă, deoarece entropia crește; invers, ipoteza idealității este echivalentă cu ipoteza unei variații de entropie zero.

Definiția cuantică a entropiei

În timp ce în viziunea antropică entropia este întotdeauna exprimată în termeni de variație și niciodată în termeni absoluți, în mecanica cuantică este posibil să se definească entropia în termeni absoluți, de exemplu prin încurcarea .

Luați în considerare două sisteme Și , fiecare cu un spațiu Hilbert asociat , . Starea sistemului compozit este atunci:

În general, nu este posibil să se asocieze o stare pură cu componenta . Cu toate acestea, este încă posibil să asociați o matrice de densitate cu aceasta . Să definim operatorul de proiecție

.

Starea de este urma parțială a pe baza sistemului :

.

De exemplu, pentru starea "clasică" încurcată a Și , fiecare constând din două stări pure "0" și "1"

matricea densității este

și matricea densității de stare pură a Și

aceasta este pur și simplu proiecția operatorului . Rețineți că matricea de densitate a sistemului compozit, , are aceeași formă. Acest lucru nu este surprinzător, deoarece starea clasică încurcată este o stare pură.

Având în vedere orice matrice de orice densitate, , putem calcula cantitatea

unde este este constanta lui Boltzmann , iar urma este luată în spațiu unde este definit . Se pare ca este exact entropia sistemului corespunzătoare .

Entropia oricărei stări pure este zero, deoarece nu există nicio incertitudine cu privire la starea sistemului. Entropia fiecăruia dintre cele două subsisteme Și încâlcit este pur și simplu , maximul permis pentru un sistem cu două stări.

Dacă sistemul în ansamblu este pur, entropia fiecărui subsistem poate fi utilizată pentru a măsura gradul de „încâlcire” cu celelalte subsisteme.

Se poate arăta, de asemenea, modul în care operatorii unitari care acționează asupra unei stări, cum ar fi operatorul de evoluție a timpului obținut din ecuația lui Schrödinger , lasă entropia neschimbată. Reversibilitatea unui proces este deci asociată cu variația entropiei sale, confirmând astfel teoria termodinamică și, în același timp, entropia unui semnal conform teoriei informației .

Definiție statistică

În mecanica statistică, studiul entropiei este un mijloc de a obține informații macroscopice pornind de la configurații microscopice. Se imaginează intuitiv că unei anumite condiții de echilibru macroscopic a sistemului (macrostat sau stare termodinamică a sistemului, definită de valori precise ale mărimilor, cum ar fi presiunea și temperatura), corespund diferite configurații microscopice (stări dinamice sau microstate, numai definite dacă sunt cunoscute poziția și viteza tuturor moleculelor sistemului).

Astfel de configurații microscopice ocupă un volum în spațiul de fază care este indicat cu . Apoi putem defini entropia conform principiului lui Boltzmann ca: [3] [7]

unde este este constanta lui Boltzmann .

Putem defini ca măsură a setului tuturor aranjamentelor posibile (sau probabilităților macroscopice) ale nivelurilor moleculare: de aceea reprezintă numărul total de stări accesibile sistemului la temperatură . Această măsură ia în considerare indistinguibilitatea dintre particule prin introducerea factorului de corecție Gibbs.

Pentru a înțelege semnificația fizică a să luăm ca exemplu un caz de entropie prin amestecare referindu-ne la un cristal de atomi . Să presupunem că introducem atomi (similar ca dimensiune și din punct de vedere electronic) pe site-urile prin simplă substituție: în acest fel avem un număr de atomi și un număr de atomi che si distribuiscono nei siti del cristallo. Man mano che introduciamo gli atomi nei siti di aumenta il numero delle configurazioni possibili tra gli atomi e , cioè aumenta la possibilità di ottenere distribuzioni diverse: questo fatto coincide con un aumento del grado di disordine del sistema, e quindi con un aumento di entropia. Il numero massimo di configurazioni corrisponde al numero di modi possibili di distribuire a caso e oggetti su siti e vale:

In generale, se nel cristallo di A vengono introdotti diversi tipi di atomi simili ( , , ecc.), il numero massimo di configurazioni possibili vale:

A temperature ordinarie, nei gas, queste disposizioni seguono la distribuzione di Maxwell-Boltzmann , ma l'approccio può opportunamente estendersi, in maniera più complessa, a liquidi e solidi dove ad esempio non vige l'indistinguibilità delle singole particelle (poiché spazialmente vincolate ad esempio al reticolo cristallino). A basse temperature, prossime allo zero assoluto , le distribuzioni, in virtù del fatto che le particelle si concentrano nei livelli di energia più bassi, seguiranno differenti distribuzioni, come quella di Fermi-Dirac o di Bose-Einstein (a seconda del fatto che ricadano o meno sotto il principio di esclusione di Pauli ).

La definizione statistico-molecolare è considerata la fondamentale definizione di entropia, dato che tutte le altre possono esserne matematicamente derivate, ma non viceversa. Nelle lezioni di teoria del gas di Boltzmann, del 1896, si è dimostrata l'espressione della misura entropica per i sistemi di atomi e molecole in fase gassosa, fornendo quindi una misura per l'entropia in termodinamica classica.

Si può dimostrare che l'entropia così definita possiede tutte le caratteristiche dell'entropia termodinamica e in modo particolare si dimostra che è estensiva, ovvero gode della proprietà di additività (e differenza: per cui è calcolabile la variazione d'entropia e la funzione entropia è differenziabile, ovvero ha senso parlare di entropia in termini microscopici). La formula mostra che è estremamente improbabile, anche se non impossibile, che un sistema ritorni da una configurazione finale a una identica allo stato iniziale. La differenza fisica di significato tra entropia e temperatura è che la prima misura lo stato di disordine (fisico) del sistema, la seconda lo stato (energetico) di agitazione molecolare .

Dall'equazione , con alcune considerazioni combinatorie su e dalla distribuzione di Boltzmann degli stati possibili, si giunge alla:

dove è la temperatura , energia termica , costante dei gas , la funzione di partizione , e la costante di Avogadro .
La formula torna utile per il calcolo di nei gas.

Volendo informazioni macroscopiche del sistema basta derivare l'entropia rispetto a una delle sue variabili naturali , e (energia, numero di particelle e volume) tenendo costanti le altre. È necessario tenere conto che questa trattazione riposa sull' ipotesi ergodica che postula di poter sostituire la media temporale sulle configurazioni microscopiche con la media sulle configurazioni stesse (propriamente sostituire le medie temporali con quelle sull'ensemble -Gibbs- ).

Entropia di Gibbs

Lo stato macroscopico di un sistema è descrivibile dalla distribuzione di una serie di microstati . L'entropia di questo sistema è calcolata con la formula di Willard Gibbs .
Per un sistema della fisica classica (es. una collezione di particelle) avente un numero discreto di microstati, se indichiamo con l'energia dell'i-esimo microstato, e con la relativa probabilità che si verifichi durante le fluttuazioni del sistema, allora l'entropia di tale sistema è data da:

,

dove:
la quantità è la costante di Boltzmann, che, come l'entropia, è misurata in unità di capacità termica , mentre il logaritmo è un numero adimensionale.
Questa entropia è chiamata indifferentemente anche entropia statistica , oppure entropia termodinamica . Tale formula è la versione discreta dell' Entropia di Shannon . L'entropia di von Neumann è a sua volta una estensione dell'Entropia di Gibbs al fenomeno quanto-meccanico .
È stato dimostrato [8] che l'Entropia di Gibbs è del tutto equivalente alla definizione classica di entropia:

Equazione di bilancio

In un sistema isolato , ilsecondo principio della termodinamica asserisce che l'entropia può solo aumentare. In un sistema aperto , in cui quantità come calore, energia e massa possono fluire verso e dall'esterno, l'entropia del sistema può anche scendere. In un sistema aperto è spesso utile scrivere una equazione di bilancio .

Un sistema aperto è generalmente definito da un volume di controllo , ovvero una porzione dello spazio che determina il sistema in esame. Tutto ciò che non è contenuto in questo volume è esterno al sistema. L'entropia del sistema varia nel tempo, e la sua derivata è determinata da un'equazione di bilancio del tipo

dove , denotano rispettivamente la corrente di entropia netta e quella generata all'interno del sistema. Tutte queste quantità sono derivate temporali. In una equazione di bilancio normalmente il secondo termine può essere negativo, qui invece no conformemente alsecondo principio della termodinamica .

I termini di bilancio possono essere esplicitati nel modo seguente:

In questa espressione ciascuna delle correnti di entropia è spezzata in due addendi:

  • il termine conduttivo tiene conto dello scambio di calore con una sorgente termica esterna a temperatura .
  • il termine convettivo tiene conto della variazione di entropia dovuta a masse entranti o uscenti dal sistema; il termine indica la variazione di massa e l'entropia per unità di massa;

In un sistema chiuso il termine convettivo è nullo, per cui la relazione diventa:

In un sistema isolato si annullano anche i termini entropici legati al flusso termico, per cui:

Entropia nell'informazione

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Entropia (teoria dell'informazione) .

Si deve a Claude Shannon lo studio dell'entropia nella teoria dell'informazione, il suo primo lavoro sull'argomento si trova nell'articolo Una teoria matematica della comunicazione del 1948. Nel primo teorema di Shannon, o teorema di Shannon sulla codifica di sorgente, egli dimostrò che una sorgente casuale d'informazione non può essere rappresentata con un numero di bit inferiore alla sua entropia, cioè alla sua autoinformazione media.

Nella teoria dell'informazione - e in rapporto alla teoria dei segnali - l'entropia misura dunque la quantità di incertezza o informazione presente in un segnale aleatorio, che può essere interpretata anche come la minima complessità descrittiva di una variabile aleatoria , ovvero il limite inferiore della compressione dei dati. La connessione con l'entropia termodinamica sta allora nel rapporto di compressione: al diminuire della temperatura corrisponde la riduzione della ridondanza del segnale, e quindi l'aumento della compressione. L'entropia dell'informazione raggiunge un minimo, che in generale è diverso da zero, al contrario dell'entropia termodinamica (vedi terzo principio della termodinamica ).

Tale risultato era implicito nella definizione statistica dell'entropia di John Von Neumann , anche se lo stesso Von Neumann, interrogato al riguardo da Shannon nel forse unico scambio di opinioni tra loro, non ritenne la cosa degna di attenzione. Come ricordò Shannon più tardi a proposito del risultato da lui trovato:

«La mia più grande preoccupazione era come chiamarla. Pensavo di chiamarla informazione , ma la parola era fin troppo usata, così decisi di chiamarla incertezza . Quando discussi della cosa con John Von Neumann, lui ebbe un'idea migliore. Mi disse che avrei dovuto chiamarla entropia , per due motivi: "Innanzitutto, la tua funzione d'incertezza è già nota nella meccanica statistica con quel nome. In secondo luogo, e più significativamente, nessuno sa cosa sia con certezza l' entropia , così in una discussione sarai sempre in vantaggio"»

Entropia nell'economia

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Entropia (economia) .

Georgescu-Roegen applicando il secondo principio della termodinamica all' economia , e in particolare all' economia della produzione, ha introdotto una teoria economica che discute i fondamentali della decrescita : ogni processo produttivo non diminuisce (e quindi incrementa irreversibilmente o lascia uguale) l'entropia del sistema- Terra : tanta più energia si trasforma in uno stato indisponibile, tanta più sarà sottratta alle generazioni future e tanto più disordine proporzionale sarà riversato sull'ambiente.

Note

  1. ^ Gordon M. Barrow, Physical Chemistry , WCB, McGraw-Hill, 1979
  2. ^ Poiché è dimostrabile, non è un vero postulato .
  3. ^ a b ( EN ) IUPAC Gold Book, "entropy"
  4. ^ ( EN ) JM Smith, HCVan Ness; MM Abbot, Introduction to Chemical Engineering Thermodynamics , 4ª ed., McGraw-Hill, 1987, p. 150. ISBN 0-07-100303-7
  5. ^ indica il volume molare, pari al volume rapportato al numero di moli, ovvero:
  6. ^ Infatti, dalla definizione dell' entalpia : ; e in termini differenziali: . Ma dU e dH sono nulli essendo la trasformazione a temperatura costante, quindi , ovvero
  7. ^ ( EN ) JM Smith, HCVan Ness; MM Abbot, Introduction to Chemical Engineering Thermodynamics , 4ª ed., McGraw-Hill, 1987, pp. 159-163. ISBN 0-07-100303-7
  8. ^ ET Jaynes; Gibbs vs Boltzmann Entropies; American Journal of Physics, 391, 1965

Bibliografia

Voci correlate

Altri progetti

Collegamenti esterni

Controllo di autorità Thesaurus BNCF 19353 · LCCN ( EN ) sh85044150 · GND ( DE ) 4014894-4 · BNF ( FR ) cb12099111d (data) · BNE ( ES ) XX528989 (data) · NDL ( EN , JA ) 00562019