Home | Eventi | Protagonisti Glossario | Bibliografia | Sitografia | Scrivimi


Dicesi entropia (dal greco entropein, rivolgersi) la funzione di stato termodinamica S tale che ΔS = ΔQ/T, ove ΔQ è la quantità di calore che il sistema in esame ha scambiato con l'esterno nel corso di una sua trasformazione reversibile, e T è la temperatura assoluta alla quale è avvenuto lo scambio della quantità di calore ΔQ. Questa definizione è dovuta a Rudolf Clausius.

La variazione di entropia di un sistema può venir calcolata unicamente nel caso di trasformazioni reversibili, costituite da successioni continue di stati di equilibrio; essa dipende soltanto dagli stati iniziale e finale della trasformazione e non dal particolare tipo di trasformazione che ha portato da uno stato all'altro. Perciò la variazione di entropia è nulla se il sistema, alla fine di una trasformazione, ritorna nelle stesse condizioni iniziali (trasformazione ciclica); l'entropia di un sistema che percorre un ciclo chiuso reversibile rimane perciò costante. In accordo con il secondo principio della termodinamica l'entropia di un sistema isolato non diminuisce mai e aumenta nelle trasformazioni irreversibili, per es. nei processi spontanei in cui il sistema raggiunge uno stato di equilibrio.

L'entropia si può anche definire in forma statistica come una misura del grado di disordine di un sistema: esiste infatti una relazione precisa tra entropia e probabilità data dalla formula S = KB ln P, dove KB è la costante di Boltzmann e P la probabilità termodinamica di uno stato del sistema, definita come il numero delle possibili configurazioni che danno origine allo stesso stato termodinamico. L'aumento di entropia che si manifesta in un sistema isolato che raggiunge uno stato di equilibrio può essere considerato come l'effetto della tendenza di ogni sistema a evolversi da uno stato meno probabile a uno stato più probabile. In un cristallo perfetto allo zero assoluto ogni suo costituente (atomo o molecola) occupa il livello più basso di energia: esiste quindi una sola configurazione possibile e perciò l'entropia del sistema è nulla (terzo principio della termodinamica).

Esistono definizioni di entropia anche al di fuori della fisica. Nella teoria del linguaggio, dicesi entropia il numero che misura il grado di competenza delle risposte possibili a un medesimo stimolo, cioè la tendenza di certe risposte ad apparire più sovente di altre. In cibernetica, invece, durante la trasmissione di un messaggio attraverso un mezzo fisico (ad es. un conduttore) il mezzo si trova in uno stato di maggiore "ordine" rispetto allo stato precedente e susseguente. A questo maggiore ordine corrisponde una minore entropia e la differenza è tanto maggiore quanto maggiore è il contenuto di informazione del messaggio, ossia quanto minore è la probabilità dello stato "ordinato". Si parla perciò di "entropia informazionale".