entropia
In termodinamica, funzione di stato di un sistema la cui variazione nel passaggio del sistema da uno stato a un altro può essere calcolata, considerando una trasformazione ideale reversibile tra i due stati, come somma dei rapporti tra le quantità di calore ΔQ scambiate con l’ambiente in ogni tratto della trasformazione stessa e le temperature assolute T alle quali avvengono gli scambi:
ΔS ≥ __ .
L’entropia si misura quindi in calorie o in joule per grado Kelvin. Nelle trasformazioni reali e irreversibili di un sistema isolato, in base al secondo principio della termodinamica, la variazione dell’entropia è sempre positiva e tende quindi a un massimo, al quale corrisponde la cessazione di ogni ulteriore evoluzione spontanea del sistema. L’entropia può essere considerata come un indicatore temporale (freccia del tempo) poiché assegna un verso alla successione degli stati del sistema. In meccanica statistica, l’entropia è funzione crescente della probabilità dello stato ;macroscopico di un sistema, e precisamente risulta proporzionale al logaritmo del numero delle configurazioni microscopiche possibili per quello stato macroscopico secondo la relazione di Boltzmann S=kB ln P dove S è l’entropia, P è la probabilità termodinamica di uno stato macroscopico e kB è la costante di Boltzmann. La tendenza all’aumento dell’entropia di un sistema isolato corrisponde, dunque, al fatto che il sistema evolve verso gli stati macroscopici più probabili; essendo in generale la probabilità di uno stato inversamente proporzionale al suo grado di organizzazione e di ordine, l’entropia può quindi essere considerata anche una misura del disordine e del carattere indifferenziato di un sistema.
→ Termodinamica molecolare